Come il
cervello elabora il linguaggio in tempo reale
DIANE RICHMOND
NOTE E
NOTIZIE - Anno XXII – 15 marzo 2025.
Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale
di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a
notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la
sezione “note e notizie” presenta settimanalmente lavori neuroscientifici
selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori
riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.
[Tipologia del testo: RECENSIONE]
Lo studio della
neurofisiologia del linguaggio, dopo decenni in cui era rimasto ancorato al
modello anatomo-clinico di Wernicke-Geschwind, integrato con nozioni emergenti
da nuovi studi, ha definitivamente preso il largo sulla base dei modelli
morfo-funzionali dedotti dagli studi di neuroimmagine e dalla elaborazione
teorica computerizzata delle basi elettrofisiologiche dei processi percettivi
(acustici e visivi) ed esecutivi della comunicazione verbale umana. Da quasi
due decenni la riflessione teorica assume il riferimento implicito delle “reti
del linguaggio” di Antonio Damasio, e non più l’ingenuo modello modale che
aveva imperato in neuropsicologia fino a tempi recenti.
Nonostante questo importante
salto qualitativo, rimangono ancora molte lacune di conoscenza e domande senza
risposta, qualora si provi a definire in termini di meccanismi neurofunzionali
le basi della comunicazione verbale nell’atto della sua produzione e ricezione,
nelle circostanze della vita reale.
Ariel Goldstein e colleghi
hanno sviluppato un modello computazionale unificato che connette fase acustica,
fase esecutiva verbale e strutture linguistiche del livello della parola, per
studiare la base neurale cerebrale delle conversazioni della vita quotidiana.
(Goldstein
A. et al., A unified acoustic-to-speech-to-language embedding space
captures the neural basis of natural language processing in everyday
conversations. Nature Human Behavior – Epub ahead of print doi: 10.1038/s41562-025-02105-9, March 7, 2025).
La
provenienza degli autori è
la seguente: Department of Cognitive and Brain
Sciences and Business School, Hebrew University, Jerusalem (Israele);
Google Research, Mountain View, CA (USA); Department of Psychology and the
Princeton Neuroscience Institute, Princeton University, Princeton, NJ (USA); Department
of Cognitive Neuroscience, Faculty of Psychology and Neuroscience, Maastricht
University, Maastricht (Paesi Bassi); Athinoula A. Martinos Center for Biomedical Imaging,
Massachusetts General Hospital and Harvard Medical School, Boston, MA (USA); New
York University School of Medicine, New York, NY (USA); School of Engineering
and Applied Science, Harvard University, Boston, MA (USA).
Ariel Goldstein e colleghi
hanno impiegato l’elettrocorticografia (ECoG) per registrare i segnali neurali, durante 100 ore di
produzione e comprensione verbale, di partecipanti impegnati in conversazioni
di vita reale a tema libero. I ricercatori hanno estratto, impiegando “Whisper”, un modello multimodale “speech-to-text”,
un basso livello acustico, un medio livello di discorso e un livello di contextual embeddings
words, ossia rappresentazioni di parole che considerano il contesto
circostante, migliorando la comprensione semantica attraverso la resa di
sfumature di significato e di rapporti non evidenti. I ricercatori hanno
sviluppato modelli di codifica che mappano linearmente queste relazioni
nell’attività cerebrale durante la produzione e la comprensione del discorso.
Fatto rilevante, è che il
modello predice accuratamente l’attività neurale a ciascun livello della
gerarchia di elaborazione cerebrale del linguaggio, durante ore di nuove
conversazioni, ossia su contenuti non impiegati nel training del
modello.
La gerarchia di elaborazione
interna del modello è allineata con la gerarchia corticale per l’elaborazione
della parola e della lingua, in cui le regioni sensoriali e motorie si
allineano meglio con le relazioni del modello con le parole, mentre le aree del
linguaggio di più alto livello sono meglio allineate con le relazioni del
modello alla lingua. Il modello Whisper cattura la
sequenza temporale della codifica “dalla lingua al discorso” prima dell’articolazione
delle parole (produzione verbale), e la codifica “dal discorso alla lingua”
dopo l’articolazione (comprensione verbale).
Gli apprendimenti specifici
di questo modello superano i modelli simbolici nel catturare l’attività neurale
a supporto della naturale abilità di parlare e del linguaggio. Questi risultati
supportano un viraggio paradigmatico verso modelli computazionali unificati,
che catturano l’intera gerarchia di elaborazione per la comprensione e la
produzione del linguaggio in conversazioni reali.
L’autrice della nota ringrazia
la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle
recensioni di
argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito
(utilizzare il motore interno nella pagina “CERCA”).
Diane Richmond
BM&L-15 marzo 2025
________________________________________________________________________________
La Società
Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society
of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze,
Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come
organizzazione scientifica e culturale non-profit.